大規模言語モデル Large Language Model LLM
ワード
Temperature LLM
簡潔に言うと、
この値が低ければ低いほど、最も確率が高い回答が常に選ばれるため、結果はより決定論的...
低いと、ランダム性 randomness性が増し、より多様で創造的なアウトプットが可能
https://www.promptingguide.ai/jp/introduction/settings
用途によって値を変更する
値が低い: 最も確からしい回答、決定性 deterministicが求められる分野
事実に基づくQA
値が高い: ランダム性 randomnessや創造性 creativityなことが求められる
詩の生成やその他の創造的なタスク
Top_p LLM
簡単にいうと
核サンプリングと呼ばれるサンプリング手法であるtop_pでは、モデルが応答を生成する際の決定性 deterministicをコントロールすることができます
https://www.promptingguide.ai/jp/introduction/settings
用途によって値を変更する
値が低い: 決定性 deterministicが上がる
値が高い: ランダム性 randomnessや創造性 creativityが上がる
↑一般的には、Temperature LLM、Top_p LLM両方ではなく、どちらかを変更することをお勧め
利用しているモデル Modelの値は把握しておいたほうが良い。
技術選定の審美眼(2023年版)
LLM技術の影響をうまく言語化していて良かった